Di Luar Permintaan Mentah
Ketika memulai dengan Model Bahasa Besar (LLM), para pengembang biasanya menggunakan panggilan API langsung (seperti perpustakaan Python OpenAI) untuk mengirimkan permintaan dan menerima hasil. Meskipun berfungsi, pendekatan ini menjadi sulit dikelola seiring aplikasi semakin berkembang.
Masalah Tanpa Keadaan
Model Bahasa Besar secara inheren tanpa keadaan. Setiap kali Anda mengirim pesan, model akan "melupakan" siapa Anda dan apa yang sebelumnya Anda katakan. Setiap interaksi adalah lembaran kosong. Untuk menjaga percakapan tetap berjalan, Anda harus secara manual mengirimkan seluruh riwayat kembali ke model setiap kali.
Solusi LangChain
LangChain memperkenalkan ChatOpenAIpengemas model. Ini bukan sekadar pengemas demi kesempurnaanโini merupakan dasar dari modularitas. Dengan mengabstraksikan pemanggilan model, kita nantinya dapat mengganti model, menyisipkan memori, dan menggunakan templat tanpa harus menulis ulang seluruh basis kode kita.
Your task is to create a
ChatOpenAI instance named my_llm with a temperature of 0.7 to allow for more creative (non-deterministic) responses.
from langchain_openai import ChatOpenAImy_llm = ChatOpenAI(temperature=0.7)